La science, la cité

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé : expertise scientifique

Fil des billets - Fil des commentaires

A quoi sert un prix Nobel ?

Chaque année depuis 1901, l'Académie suédoise des sciences récompense du prix Nobel une poignée de découvertes ou d'inventions qui ont particulièrement mérité. Ces découvertes font souvent l'objet d'un consensus. Mais le paradoxe est que le prix est remis aux auteurs de ces découverte, les propulsant ainsi au rang de "génies", consultés à  propos de tout — des problèmes sociaux à  la stratégie militaire[1] —, invités à  signer toutes sortes de pétitions et à  siéger au sein de fondations fantômes… à  moins qu'ils ne soient ostracisés pour faute grave comme James Watson !

J'ai pu constater de visu lors du ''World Knowledge Dialogue Symposium'' que les prix Nobel sont certes des experts dans leur domaine mais que ça n'en fait pas forcément des surhommes, ou même des lumières. Tom Roud signalait d'ailleurs combien Albert Fert, invité sur France inter, semble éloigné de la réalité de la recherche (c'est-à -dire de la situation des doctorants et post-doctorants). D'où ma question : à  quoi sert un prix Nobel ? Pourquoi, au-delà  du prestige et de la renommée, peut-on en avoir besoin ?

The Nobel Prize in Physics awarded to Ernest O. Lawrence in 1939 for the invention and development of the cyclotron and for results obtained with it, especially with regard to artificial radioactive elements ©© Tim Ereneta

Pour y répondre, je vais m'intéresser à  ce que la sociologie des sciences dit de l'expertise, en particulier Harry Collins dont Phnk signalait récemment les travaux et le livre qu'il a publié en 2007 avec Robert Evans, Rethinking Expertise. En effet, c'est acquis que les prix Nobel sont des experts de leur mini-champ de compétence : Albert Fert de la magnetorésistance géante, Luc Montagnier et Françoise Barré-Sinoussi du VIH… Nous sommes en présence, pour reprendre la typologie de Collins et Evans, de l'expertise contributrice (contributory expertise) : celle qui permet de participer à  l'avancement d'un domaine, et de transmettre son savoir à  des étudiants ou collègues. C'est cette expertise qui justifie en premier lieu la remise du prix Nobel.

Mais ce n'est pas tout. Un prix Nobel a pu s'illustrer par son approche nouvelle d'un problème, par sa compréhension inédite des limites d'un domaine. Ainsi, Pierre-Gilles de Gennes avait son propre style de scientifique, un style qui le distinguait de ses pairs et qui constitua un apport de niveau "méta" à  la physique. Cet apport peut très bien faire école et inspirer d'autres percées, à  condition de posséder cette disposition à  l'interaction et la réflexivité que décrivent Collins et Evans (p. 27), permettant de se projeter pour pouvoir décrire et expliquer ce qu'on fait. Ce qui n'est pas donné à  tous les praticiens ou prix Nobel, comme le montre cette citation attribuée à  Richard Feynman : La philosophie des sciences est aussi utile aux scientifiques que l’ornithologie l'est aux oiseaux.

Mais le récipiendaire du prix Nobel, une fois couronné, est aussi invité aux quatre coins de la planète à  rencontrer le gratin mondial. Une particularité de ces colloques, comme celui de Lindau, est qu'ils rassemblent au-delà  des disciplines et des thèmes de recherche. Ainsi, à  force de voyager et de côtoyer des spécialités aussi différentes, le prix Nobel acquiert et mobilise une des "méta-expertises" décrites par Collins et Evans. En particulier, l'expertise projetée (referred expertise, par analogie avec la referred pain) consiste à  appliquer à  un domaine l'expertise acquise dans un autre. C'est le propre des gestionnaires de gros projets de recherche, comme le radiotéléscope ALMA, qui peuvent être à  la tête d'un interféromètre un jour et d'un collisionneur géant le lendemain. Car ce qui importe, ce n'est pas l'expertise qui permet de mettre les mains dans le cambouis (contributory expertise) mais celle qui permet de parler à  chacun, d'évaluer différentes options, de faire les choix qui se révéleront finalement les plus pertinents.

Newspaper clipping posted in the Physics Student Center at RIT. ©© Matt Chan

Ainsi, les Nobel ont cette chance de pouvoir se consacrer surtout à  cette expertise projetée. Profitant de l'autorité qui leur est reconnue, s'enrichissant du contact des uns et des autres, ils peuvent devenir l'huile qui va faire mieux tourner les rouages de la science. Pour autant, c'est bien toujours d'expertise que nous parlons ici : contrairement à  une idée souvent répandue, cela n'en fait pas des esprits plus sages, plus moraux ou plus respectueux…

Notes

[1] Depuis au moins les années 1940, nous signale Robert M. Friedman dans la numéro d'octobre de La Recherche, p. 29.

Partage

Peut-on expliquer notre perception des problèmes scientifiques et environnementaux ?

Un récent sondage Eurobaromètre donne la température des Européens dans leur perception de l'environnement. On trouve notamment le graphique ci-dessous (p. 65), représentant l'inquiétude vis-à -vis de divers problèmes scientifiques et environnementaux en fonction de l'information disponible sur le sujet.

Que voit-on ? Que les problèmes les plus inquiétants sont ceux pour lesquels les Européens manquent d'information (changement climatique, pollution de l'eau, impact de la chimie), et les moins inquiétants ceux pour lesquels l'information est la plus disponible (pollution sonore, problèmes urbains, habitudes de consommation). De là , on peut affirmer un peu hâtivement que c'est l'ignorance qui entraîne la peur. Et qu'il faut informer à  tout prix, selon le modèle de l'instruction publique.

Mais en est-on si sûr ? D'abord, la notion de manque d'information n'est pas très claire. Elle peut correspondre aussi bien à  un désir d'être plus informé (et donc à  un aveu d'ignorance) qu'à  une sensation d'être privé de débat, d'être tenu en dehors du jeu. Cette sensation-là  ne serait-elle pas suffisante pour inquiéter le public ? On peut aussi imaginer un renversement de la causalité : ce n'est pas parce que je manque d'information sur le changement climatique que je m'en inquiète mais parce que je m'en inquiète que je m'aperçois d'un manque d'information patent. Surtout, d'autres paramètres rentrent en ligne de compte. Sinon, comment expliquer que le changement climatique nous inquiète plus que les OGM à  propos desquels on dispose de moins d'information ?

On peut donc tenter une autre interprétation, qui ne cherche pas à  mettre le doigt sur le décalage quantitatif entre le profane (ignorant et inquiet) et l'expert (informé et confiant) mais à  évaluer l'écart qualitatif qui les sépare. Considérant ainsi qu'au lieu d'opposer la rationalité des experts à  l'irrationalité du public, il convient de mieux comprendre comment les uns et les autres construisent les risques[1]. C'est de cette rationalité différente que je parlais à  Ryuujin.

On doit à  l'étude séminale de Slovic citée par Joly et Kreziak une analyse statistique de la perception propre des risques par le grand public, la décomposant en trois facteurs :

  • le caractère volontaire ou involontaire de l'exposition au risque : un risque est d'autant mieux accepté qu'il est possible de s'y exposer volontairement et donc de s'y soustraire ;
  • le caractère "inconnu" des risques : les dangers qui sont inobservables, inconnus, nouveaux et dont les effets sont reportés à  long terme seront moins acceptables ;
  • le nombre de personnes concernées par le risque : un danger est plus accepté quand il est limité à  des groupes spécifiques de la population, y compris par résignation au sein de ladite population (exemple de la cigarette).

D'autres travaux ont éclairé plus profondément cette rationalité :

  1. elle se base sur la confiance dans la politique et dans les procédures démocratiques plus que dans les méthodes scientifiques et expérimentales ;
  2. elle fait référence aux coutumes et aux traditions plus qu'à  l'autorité scientifique ;
  3. elle convoque une expertise large qui inclut des analogies et des précédents historiques plus qu'une expertise étroite et réductionniste ;
  4. elle personnalise les risques au lieu de les dépersonnaliser ;
  5. elle donne de l'importance aux savoirs locaux plus qu'aux savoirs universels ;
  6. elle prend également en compte des risques non anticipés et/ou difficilement instrumentalisables.

Selon cette perception constructiviste, les risques sont incommensurables : on ne peut pas comparer différents types de risques sous le seul angle de leur occurrence et de leur dangerosité. Tant pis pour la rationalité économique du calcul des coûts que regrette Jean de Kervasdoué dans son livre Les prêcheurs de l'apocalypse, quand il écrit que le nucléaire a tué nettement moins que les mines de charbon ou que la production naturelle de radiations est parfois bien plus importante que ces seuils [critiques de radioactivité déterminés dans les normes sanitaires], sans que personne ne s'en inquiète jamais[2]. La production d'énergie nucléaire ne se met pas sur le même plan que l'extraction du charbon ou la radioactivité naturelle, ne serait-ce que parce que le nucléaire induit un risque difficilement mesurable (en cas de catastrophe, j'entends), global et impalpable (d'où le sentiment de vivre dans la société du risque décrite par Ulrich Beck). Ou parce que l'industrie du nucléaire a son caractère propre, comme l'obligation de recourir à  un personnel technique en permanent turnover à  cause de l'exposition aux rayonnements ou la production de déchets problématiques.

Avec cette grille de lecture, le graphique ci-dessus prend tout son sens : les problèmes qui nous inquiètent le plus sont les dangers environnementaux globaux comme la pollution de l'air, de l'eau ou le changement climatique, auxquels nous sommes tous exposés. Puis viennent en orange des questions plus techniques comme les produits chimiques utilisés dans les produits de tous les jours et l'utilisation des OGM dans l'agriculture, pour lesquelles le citoyen est obligé de s'en remettre aux autorités scientifiques malgré ses réticences des points 1 et 2. On trouve en jaune des problèmes identifiés depuis des décennies tels l'épuisement des ressources naturelles, la pollution due à  l'agriculture, la perte de biodiversité, les catastrophes naturelles et l’augmentation du volume des déchets. Touchant beaucoup moins à  la santé, on peut plus difficilement les personnaliser et donc se sentir concerné (point 4). Enfin viennent les points bleus, les questions les moins préoccupantes, des problèmes urbains à  l’impact des modes de transport actuels en passant par nos habitudes de consommation et la pollution sonore. Il s'agit de problèmes liés à  nos propres comportements et donc beaucoup moins redoutés que ceux auxquels nous sommes exposés passivement, parfois à  notre insu.

N'en déplaise à  certains, voici la situation aujourd'hui. Cela ne veut pas dire pour autant que l'idée de progrès a disparu ou que la nature est devenue l'unique valeur de référence, simplement que les conceptions évoluent et se complexifient. La société s'efforce de penser en de plus en plus de dimensions, rompant avec la rationalité économique ou de l'ingénieur pour intégrer un ensemble de variables non arithmétiques, pondérées par la subjectivité du collectif (ses attentes, ses valeurs etc.). Aussi, les questions liées aux défaillances techniques éventuelles ainsi que celles de la fiabilité de l'expertise (compétence, ouverture, indépendance…) sont centrales. Et, presque paradoxalement, les modes de raisonnement globaux des profanes sont plus proches de la notion de risque réel que ceux des experts scientifiques qui ont une vision partielle et théorique du risque.

Notes

[1] P.-B. Joly et D. Kreziak, "Les experts et les profanes face à  l'évaluation des OGM : un conflit de rationalité", Colloque Confiance et rationalité, Dijon, 5-6 mai 1999, Editions Inra, 2001, pp. 133-151. C'est l'article qui m'a aidé pour ce billet et que je cite à  plusieurs reprises ; il m'avait bien éclairé quand j'ai entrepris des études de sociologie des sciences.

[2] Je cite la note de lecture des éconoclastes.

Partage

Les OGM, science contre science

Un des messages de mon billet sur le Grenelle de l'environnement était que très souvent dans ce type de débats, il n'y a pas d'un côté la science et de l'autre les peurs, l'opinion ou la pseudo-science. Et que la science se retrouvant face à  elle-même, c'est la politique qui permet de trancher.

Un article du New York Times paru le 26 décembre, précisément intitulé "Both sides cite science to address altered corn", ne dit pas autre chose. Avant la décision française sur le MON810, c'est le Commissaire européen Dimas qui décidait unilatéralement de s'opposer à  l'autorisation de mise sur le marché de nouvelles plantes OGM. En se basant sur de nouvelles études montrant que le maïs Bt n'est pas exempt d'incertitudes et de risques à  long terme. Car contrairement aux apparence, l'article nous apprendre vite que le Commissaire Dimas a une foi absolue en la science. Ah ! Mais simplement, il y a des fois où des points de vue scientifiques divergents sont sur la table. Alors pourquoi une science si schizophrène ? Parce que le verre peut sembler à  moitié vide ou à  moitié plein, explique une écologue de l'ETH Zà¼rich. Mais aussi parce que les disciplines et les cultures épistémiques sont comme l'huile et l'eau, elles ne se mélangent pas : une spécialiste des papillons monarques à  l'université du Minnesota estime qu'on ne sait pas vraiment s'il y a un effet des OGM sur les écosystèmes et qu'il est difficile d'anticiper l'apparition de problèmes dans le futur. Tandis qu'un biologiste végétal considère qu'on a passé le stade des interrogations et qu'il s'agit aujourd'hui de nourrir la planète…

à‡a ne vous fait penser à  rien ? Si, bien sûr ! Il y a une semaine, le Comité de préfiguration d’une haute autorité sur les organismes génétiquement modifiés soulevait des interrogations quant aux conséquences environnementales, sanitaires et économiques possibles de la culture et de la commercialisation du MON 810. Avec, à  l'appui, 27 références scientifiques publiées après 2001. Et que dit l'Association français pour l'information scientifique : l'activation de la clause de sauvegarde n’est pas scientifiquement justifiée… Allez savoir… Et dans ces circonstances, comment l'OMC peut-elle réellement juger si un fait scientifique est réellement nouveau et convaincant ? Quand je vous disais que c'est le politique qui finit par trancher…

Partage

Alerte pour les lanceurs d'alerte !

Le lanceur d'alerte, c'est ce personnage ou ce groupe, doté d'une faible légitimité ou lié à  des instances autorisées, qui se dégage de son rôle officiel pour lancer un avertissement à  titre individuel et selon des procédures inhabituelles. L'alerte est un processus plus ou moins long et tortueux, situé entre l'appel au secours et la prophétie de malheur. Le lanceur d'alerte doit payer de sa personne pour faire passer son message car lancer une alerte consiste à  aller contre l'ordre établi, à  "réveiller" des agents absorbés par la routine et naturellement enclins à  dédramatiser les évènements[1].

Aujourd'hui, ces lanceurs d'alerte sont plus que jamais nécessaires. Et pourtant, ils sont menacés. Vous vous souvenez de Christian Vélot ? Maître de conférences en génétique moléculaire à  l'université Paris sud et responsable d'une équipe de recherche à  l'Institut de génétique et microbiologie, il anime depuis 2002 sur son temps personnel de nombreuses conférences à  destination du grand public sur le thème des OGM. Ses prises de position lui valent aujourd'hui de nombreuses pressions matérielles : confiscation de la totalité de ses crédits pour 2008, privation d'étudiants stagiaires, menace de déménagement manu militari, et décision arbitraire de non renouvellement de son contrat. Vous connaissez Pierre Méneton ? Chargé de recherche à  l'INSERM au sein du département de Santé publique informatique médicale (SPIM) de Jussieu, il est poursuivi en diffamation par le Comité des Salines de France et la Compagnie des Salins du Midi et des Salines de l'Est pour une phrase prononcée lors d'une interview pour le magazine TOC en mars 2006 : Le lobby des producteurs de sel et du secteur agroalimentaire industriel est très actif. Il désinforme les professionnels de la santé et les médias. Vous n'avez pas oublié André Cicolella ? Chercheur en santé environnementale, il fut en conflit avec les instances dirigeantes de l'INRS pour avoir révélé la dangerosité des éthers de glycol et licencié en 1994. Il n'a pas abandonné la lutte pour autant !

Comme les Etats-Unis avec le Whistleblower Act ou la Grande-Bretagne avec le Public Interest Disclosure Act, la France doit se doter d'un dispositif de protection des lanceurs d'alerte. Pendant la préparation du Grenelle de l'environnement, une mesure avait bien fait la quasi-unanimité dans les groupes de travail n°5 (p. 7) et n°3 : celle d'une loi de protection de l'alerte et de l'expertise, avec la création d'une Haute Autorité, qui soit une sorte de CNIL de l'alerte et de l'expertise. Pourtant, cette proposition n'est pas reprise dans le document préparatoire remis par le gouvernement aux négociateurs du Grenelle !

C'est pour porter à  nouveau cette question que la Fondation Sciences Citoyennes et le GIET, au nom de l'Alliance pour la planète, organisent une table-ronde à  Paris le lundi 22 octobre, de 10h à  12h30 (au FIAP : 13, rue cabanis, Paris 14e, métro Glacières ou St Jacques). Christian Vélot, Pierre Méneton, André Cicolella, Jacques Testart, Etienne Cendrier, Jean-Pierre Berlan et d'autres viendront témoigner des difficultés auxquelles ils font face, et de la nécessité de doter les lanceurs d'alerte d'un statut les protégeant.

(full disclosure : Je suis adhérent de la Fondation sciences citoyennes)

Mà J 26/10 : Pour compléter ce billet, je signale un article paru dans Libération le même jour et une interview de Christian Vélot par la web TV non-officielle du Grenelle de l'environnement.

Notes

[1] Ce paragraphe doit tout à  l'introduction du livre de Didier Torny et Francis Chateauraynaud, Les sombres précurseurs, une sociologie pragmatique de l'alerte et du risque, éditions de l'EHESS, 1999.

Partage

Ça chauffe pour le consensus

J’ai l’impression que la question du consensus en science, et particulièrement concernant le réchauffement climatique, est sur la sellette. Depuis Naomi Oreskes en 2004, on avait acquis la certitude que 75 % des 928 articles peer-reviewed consacrés à  l’évolution du climat abondent explicitement ou implicitement en faveur de l’origine anthropique du réchauffement climatique, aucun n’osant s’y opposer, les autres étant des articles neutres consacrés aux paléo-climats. C’était un beau consensus. Mais voilà  que des travaux ont ensuite proposé d’autres chiffres : selon Benny Paiser, seuls 335 articles sur 1117 (30 %) acceptent explicitement ou implicitement le consensus, les autres étant neutres exceptés 34 (3 %) qui rejettent explicitement le consensus. Selon Klaus-Martin Schulte, seuls 38 sur 528 articles récents consacrés au réchauffement climatique (7 %) acceptent explicitement le consensus ; on atteint 45 % si l’on inclut les acceptations implicites, soit une minorité, 48 % des articles étant neutres et refusant de se positionner pour ou contre le consensus. Oreskes a rapidement réagi en répondant à  Schulte… Dennis Bray et Hans von Storch ont eux effectué un sondage auprès de 550 spécialistes des sciences du climat d’au moins cinq pays qui montre que les positions ont évolué entre 1996 et 2003, mais sans consensus pour autant (Figure 30).

Mais au-delà  de cette question binaire (les hommes sont-ils responsables du réchauffement climatique ?), le consensus, comme le diable, se cache dans les détails. Notamment dans les résumés aux décideurs du GIEC qui sont des concentrés de consensus, chaque mot étant pesé avant d’être approuvé. Selon l’opinion d’experts internationaux s’exprimant dans le numéro du 14 septembre de Science, cette méthode a permis de mettre en lumière les résultats attendus du réchauffement, qui ont pu ensuite s’ancrer dans la tête des décideurs grâce aux estimations chiffrées. En effet, depuis une première étude publiée en 1979 et jusqu’en 2001, les scientifiques ont systématiquement avancé la fourchette d’une augmentation de température de 1,5 à  4,5 °C (cf. Reiner Grundmann (2006), “Ozone and Climate: Scientific Consensus and Leadership”, Science, Technology & Human Values, vol. 31, n° 1, pp. 73-101). Mais maintenant que la crédibilité générale des travaux sur le réchauffement climatique a été établie, il serait aussi bon de faire comprendre aux décideurs les éventualités plus extrêmes qui ont pu être occultées ou minimisées par le consensus. Le consensus a donc d’abord été utile, avant d’être dépassé par la complexité de la situation, à  la fois sur les plans scientifique et politico-économique. C’est bien ce que remarquait une étude sociologique des travaux du GIEC : ils sont inévitablement une sélection et une synthèse de la gamme d’intérêts nationaux divergents où les pays [insulaires du Pacifiques] plaident pour l’introduction d’une rhétorique du risque, les pays producteurs de pétrole plaident pour la mention répétée des incertitudes scientifiques et celle de gaz autres que le CO2 ; les pays en développement veulent mentionner le poids des émissions passées, les pays du Nord insistent sur les émissions futures… Les auteurs de l’article proposent aussi que les membres du GIEC sollicitent des rapporteurs extérieurs qui pourraient critiquer leurs procédures et leurs rapports, en pointant notamment du doigts les disparités entre les rapports des quatre groupes de travail qui le constituent. Une évaluation du risque plus robuste pourrait aussi venir d’une meilleure transparence sur ce qui a été débattu et quels points n’ont pas été inclus dans les rapports, par manque d’accord. Ceci afin que les experts ne s’enferrent pas dans une confiance en eux abusive.

Est-ce à  dire, comme miniTAX sur le forum Futura-Sciences, que l’on doit se méfier comme de la peste des consensus en science ? En tous cas, il est possible que le consensus technico-économico-politique se construise malgré l’absence de consensus scientifique a priori. Je l’avais montré avec l’exemple du trou dans la couche d’ozone, où l’incertitude scientifique qui régnait en 1987 ne fut réglée que par une rétroaction positive entre des tendances scientifique, politique, diplomatique et technologique convergentes. Ou comment l’existence de désaccords entre scientifiques n’empêche pas d’agir, de la même façon que le principe de précaution incite à  agir pour éviter la réalisation d’un dommage, bien qu’incertaine en l’état des connaissances scientifiques… Si bien que l’incertitude, plus que le consensus, est souvent un moteur pour l’action ! En fait, le consensus peut même être contre-productif : en faisant porter la responsabilité de la décision aux scientifiques (les politiques n’étant plus là  que pour signer l’accord qui s’impose de lui-même), il leur donne un poids trop grand, dont peuvent profiter ensuite ceux dont l’intérêt consiste à  temporiser (le sénat américain sous Bush père et fils) ou à  contre-attaquer (Exxon), en proposant sans cesse plus d’études voire des résultats contradictoires.

Partage

- page 2 de 4 -